今天也來討論一個科幻問題現在一台家用的Home Lab的處理能力是否超過當年Google的Date Center,眾所周知Google的三駕馬車GFS、MapReduce、Bigtable最早發表於2003年,那時Google號稱它的Date Center已經有破千台Server,出於方便計算假設全部的伺服器全採用Supermicro X6DH8使用Intel Nocona Xeon單核處理器(2004推出),因為是雙路主機板(可以插兩個CPU)故整體跑分提高為431分,但分散式系統最大的問題是IO,當年的記憶體,硬碟,網路可是慢到靠杯,同時IO屬於特權指令導致程式必須在User Mode與Kernel Mode反覆切來切去,而且記憶體在北橋但網路與硬碟在南橋所以在整個分散式系統中單台機器能發揮的效能給它打個5折好了得215.5分。但考量當時IBM的大型主機 or 超級電腦價格昂貴,以Google的規模使用Intel x86白菜伺服器組分散式系統就算單台機器只能發揮出3成效能,從財務的角度出發也是很划算的所以Paper一發表,Yahoo!就跟著做了一個類似的系統名為Hadoop, HDFS, MapReduce。
2021/10為止在Geekbench上跑分最高的是AMD EPYC的7萬5千分,OS選ubuntu 20.04配上GIGABYTE R282當Home Lab剛剛好,微軟的小算盤拿出來按一下,7萬5除215.5得348而且現在還有NVMe, SSD, DDR5, PCIe 4/5 , GPU(早期的GPU只能做影像處理沒有甚麼科學計算與數據處理能力,畢竟CPU裡除了計算單元ALU還有控制單元CU) 加上不用跑網路自然不會有封包碰撞, 路由, 網路設備故障等一拖拉庫的問題,也就是說現在一台Home LAB的處理能力確實有可能跟2004年Google的Date Center的處理能力一較高下何況1台Home Lab不夠可以買3台呀,只要機器都屬於同一個物理二層網路效能耗損與延遲應該不會太大,再掛個Load Balance或做HA簡直美滋滋。最後這就是一篇科幻文完全張飛打張菲,喔說錯是張飛打岳飛。
終於知道為什麼Python等了20年才稱王,以當時的CPU用Python算MSE(均方誤差),還是人工打卡西歐計算機好了。